Почему ещё слишком рано доверять нейросетям составлять судебные документы?
В судебных документах, обнародованных на прошлой неделе , стало известно о необычном использовании искусственного интеллекта экс-адвокатом бывшего президента США Дональда Трампа, Майклом Коэном. Коэн, осужденный в 2018 году за уклонение от уплаты налогов и нарушения в финансировании избирательной кампании, признался в использовании генеративного ИИ-чатбота Google Bard для создания ссылок на судебные решения.
Эти ссылки были использованы его адвокатом Дэвидом Шварцем в ходе подачи ходатайства о сокращении срока надзора за Коэном. Однако позже выяснилось, что все ссылки были фиктивными. Судья Джесси Фурман указал на отсутствие упомянутых дел и потребовал объяснений.
Коэн, не являющийся юристом, признался , что не знал об опасностях и возможностях современных технологий в юриспруденции и воспринял Google Bard как расширенный поисковик, а не как сервис генерации контента. Он также выразил удивление по поводу того, что его команда использовала эти ссылки без надлежащей проверки.
Этот случай подтверждает растущее использование ИИ в юридической практике не только в США, но и в других странах. Например, региональный суд Франкфурта в Германии подозревает юридические фирмы в привлечении искусственного интеллекта для увеличения числа исков в массовых делах.
Ранее двое адвокатов из Нью-Йорка были оштрафованы за использование ChatGPT для подготовки документов, включая вымышленные судебные решения, в деле против колумбийской авиакомпании Avianca.
Эти события выявляют потенциальные риски и вызовы, связанные с применением ИИ в юридической сфере, подчёркивая необходимость более глубокого понимания и контроля за использованием таких технологий.
Разбираем кейсы, делимся опытом, учимся на чужих ошибках